其他
OpenAI 和谷歌 DeepMind已风险重重,13位硅谷AI大厂员工联名上信:我们需要对前沿AI发出警告的权利!
公司不会签订或执行任何禁止因与风险相关的担忧而“诋毁”或批评公司的协议,也不会因与风险相关的批评而报复,阻碍任何既得经济利益;
公司将为现任和前员工提供一个可验证的匿名程序,可以向公司董事会、监管机构和具有相关专业知识的相关独立组织提出与风险相关的担忧;
公司将支持开放批评的文化,并允许其现任和前员工向公众、公司董事会、监管机构或具有相关专业知识的相关独立组织提出与其技术相关的与风险相关的担忧,只要适当保护公司商业机密和其他知识产权利益;
公司不会报复那些现任和前员工,当其他发声渠道失灵时,他们应该被允许公开分享与风险相关的机密信息。我们同意,公开表达对AI风险的担忧时应该避免发布不必要的机密信息。因此,一旦存在一个适当的程序,允许匿名向公司董事会、监管机构和具有相关专业知识的相关独立组织提出担忧,我们接受应该通过这样的程序匿名提出担忧。然而,只要这样的程序不存在,现任和前员工应该保留向公众报告他们担忧的自由。
超级智能是国家安全问题。我们正在迅速建造比最聪明的人类还要聪明的机器……它将是人类有史以来建造的最强大的武器。
美国必须掌握AGI的领导权(编者注:本条为Leopold基于自身立场出发,仅作翻译)。人工智能实验室必须把国家利益放在首位。
我们可以不搞砸它。认识到超级智能的力量也意味着认识到它的危险。…… 随着加速的加剧,我只希望讨论变得更加尖锐。但我最大的希望是,那些能感受到AGI即将到来有多么重量的人,能将其视为庄严的职责召唤。